جدیدترین اخبار
خواندنی ها » اگر هوش مصنوعی به آگاهی برسد؛ آیا باید نگران بود؟ »
تاریخ انتشار: 10/16/2025 12:45:59 AM

اگر هوش مصنوعی به آگاهی برسد؛ آیا باید نگران بود؟

اگر هوش مصنوعی به آگاهی برسد؛ آیا باید نگران بود؟
در میان بعضی متفکران، این دیدگاه به طور فزاینده‌ای در حال شکل‌گیری است که هرچه هوش مصنوعی باهوش‌تر شود، ناگهان درون ماشین‌ها چراغ آگاهی روشن خواهد شد و آنها به خودآگاهی دست خواهند یافت.اما برخی دیگر،

اگر هوش مصنوعی به آگاهی برسد؛ آیا باید نگران بود؟ در میان بعضی متفکران، این دیدگاه به طور فزاینده‌ای در حال شکل‌گیری است که هرچه هوش مصنوعی باهوش‌تر شود، ناگهان درون ماشین‌ها چراغ آگاهی روشن خواهد شد و آنها به خودآگاهی دست خواهند یافت.اما برخی دیگر، مثل پروفسور آنیل ست که سرپرست تیم دانشگاه ساسکس است، با این دیدگاه مخالف‌اند و آن را «پیش‌بینی بدون پشتوانه که از باور به برتری انسان ناشی می‌شود» توصیف می‌کنند.


با کمی دلهره وارد اتاقک می‌شوم. قرار است در حالی که موسیقی پخش می‌شود، در معرض نورهای چشمک‌زن قرار بگیرم. این بخشی از یک پروژه تحقیقاتی است که تلاش می‌کند دریابد چه ویژگی‌هایی است که ما را به عنوان انسان متمایز می‌کند.

این تجربه مرا به یاد آزمایشی در فیلم علمی-تخیلی «بلید رانر» می‌اندازد که از آن برای تشخیص انسان‌ها از موجودات مصنوعی‌ که خود را به‌عنوان انسان جا می‌زنند،‌ استفاده می‌کردند.

آیا ممکن است من یک ربات از آینده باشم و خودم خبر نداشته باشم؟ آیا در این آزمایش موفق می‌شوم؟

پژوهشگران به من اطمینان می‌دهند که این آزمایش اصلا درباره چنین چیزی نیست. ابزاری که آن را «دریم‌ماشین» (ماشین رویا) می‌نامند، طراحی شده است تا مطالعه کند مغز انسان چگونه تجربیات آگاهانه ما را از جهان ایجاد می‌کند.

وقتی تابش‌ نورهای چشمک‌زن آغاز می‌شود، حتی با چشمان بسته، الگوهای هندسی دوبعدی درهم‌پیچیده می‌بینم. گویی وارد یک دستگاه اشکال‌نما (کالیدوسکوپ) شده‌ام، با مثلث‌ها، پنج‌ضلعی‌ها و هشت‌ضلعی‌هایی که مدام تغییر شکل می‌دهند. رنگ‌ها درخشان، شدید و مدام در حال تغییرند: صورتی‌، ارغوانی‌ و فیروزه‌ای‌ که مثل چراغ‌های نئون می‌درخشند.

دریم‌ماشین فعالیت‌های درونی مغز را با نورهای چشمک‌زن به سطح می‌آورد و تلاش دارد چگونگی کارکرد فرایندهای ذهنی ما را کشف کند.

به گفته پژوهشگران، تصاویری که من در هنگام این آزمایش می‌بینم، منحصربه‌فرد و تنها به دنیای درونی خودم مربوط می‌شود. آنها معتقدند این الگوها می‌تواند به روشن شدن ماهیت خودآگاهی کمک کند.

آنها می‌شنوند که زیر لب می‌گویم: «چقدر زیباست، واقعا زیبا. انگار داخل ذهنم پرواز می‌کنم!»

دریم‌ماشین که در مرکز علوم خودآگاهی دانشگاه ساسکس قرار دارد، تنها یکی از پروژه‌های جدید در سراسر دنیاست که به مطالعه خودآگاهی انسان می‌پردازد: بخشی از ذهن ما که باعث می‌شود از آگاهی نسبت به خود برخوردار باشیم، فکر کنیم، احساس داشته باشیم و درباره جهان به طور مستقل تصمیم بگیریم.

پژوهشگران امیدوارند با شناخت ماهیت خودآگاهی، درک بهتری از آنچه در مغزهای سیلیکونی هوش مصنوعی می‌گذرد به دست آورند. برخی بر این باورند که سیستم‌های هوش مصنوعی به‌زودی به خودآگاهی مستقل خواهند رسید، البته اگر تا الان نرسیده باشند.

اما خودآگاهی واقعا چیست و هوش مصنوعی چقدر به آن نزدیک شده است؟ و آیا باور به آگاه شدن هوش مصنوعی می‌تواند در دهه‌های آینده انسان‌ها را به‌ صورت بنیادین دگرگون کند؟

از داستان‌های علمی‌تخیلی تا واقعیت

ایده ماشین‌هایی با ذهن‌های مستقل مدت‌هاست که در داستان‌های علمی‌-تخیلی به کار می‌رود. نگرانی درباره هوش مصنوعی به حدود صد سال پیش و فیلم «متروپلیس» بازمی‌گردد در آن یک ربات خود را به عنوان یک زن واقعی جا زده بود.

ترس از آگاه شدن ماشین‌ها و تهدید انسان‌ها، در فیلم «۲۰۰۱: یک ادیسه فضایی» محصول ۱۹۶۸ هم دیده می‌شود؛ وقتی کامپیوتر «هال ۹۰۰۰» به فضانوردانی که در سفینه هستند حمله می‌کند.

در تازه‌ترین قسمت فیلم «ماموریت غیرممکن»، جهان با یک هوش مصنوعی سرکش و قدرتمند تهدید می‌شود که یکی از شخصیت‌ها آن را «انگل دیجیتال خودآگاه، خودآموز و حقیقت‌خوار» توصیف می‌کند.

اما اخیرا در دنیای واقعی دیدگاه‌ها درباره خودآگاهی ماشین‌ها به سرعت تغییر کرده و این نگرانی به وجود آمده که شاید این موضوع دیگر فقط مربوط به داستان‌های علمی‌-تخیلی نباشد.

این تغییر ناگهانی به دلیل موفقیت «مدل‌های زبانی بزرگ» هوش مصنوعی ایجاد شده که از طریق اپلیکیشن‌هایی مثل جمینای و چت‌جی‌پی‌تی روی تلفن‌های ما قابل دسترس هستند. توانایی نسل جدید این مدل‌ها در انجام مکالمه‌هایی روان و باورپذیر، حتی طراحان آنها و برخی از برجسته‌ترین متخصصان این حوزه را شگفت‌زده کرده است.

در میان بعضی متفکران، این دیدگاه به طور فزاینده‌ای در حال شکل‌گیری است که هرچه هوش مصنوعی باهوش‌تر شود، ناگهان درون ماشین‌ها چراغ آگاهی روشن خواهد شد و آنها به خودآگاهی دست خواهند یافت.

اما برخی دیگر، مثل پروفسور آنیل ست که سرپرست تیم دانشگاه ساسکس است، با این دیدگاه مخالف‌اند و آن را «پیش‌بینی بدون پشتوانه که از باور به برتری انسان ناشی می‌شود» توصیف می‌کنند.

او می‌گوید: «ما خودآگاهی را با هوش و زبان مرتبط می‌دانیم، چون این ویژگی‌ها در انسان‌ها در کنار هم دیده می‌شود، اما به معنای آن نیست که در حالت کلی مثلا در حیوانات هم این طور باشد.»

پس خودآگاهی در اصل چیست؟

پاسخ کوتاه این است که هیچ‌کس دقیقا نمی‌داند. این موضوع از بحث‌های پرشور اما دوستانه در تیم پروفسور ست شامل متخصصان جوان هوش مصنوعی، کارشناسان رایانه، عصب‌شناسان و فیلسوفان کاملا پیداست؛ تیمی که تلاش می‌کند به یکی از بزرگ‌ترین پرسش‌های علم و فلسفه پاسخ دهند.

با وجود اختلاف‌ نظرهای فراوان در مرکز پژوهشی خودآگاهی، همه دانشمندان در روش کار اتفاق نظر دارند: شکستن مشکل بزرگ به بخش‌های کوچک‌تر و حل آنها در قالب پروژه‌های تحقیقاتی مانند «دریم‌ماشین».

همان‌طور که در قرن نوزدهم، جست‌وجو برای کشف «جرقه حیات» که تصور می‌شد اشیای بی‌جان را زنده می‌کند، متوقف شد و به جای آن پژوهش درباره چگونگی کار اجزای مختلف سامانه‌های زنده انجام شد، الان هم تیم دانشگاه ساسکس همان روش را برای مطالعه خودآگاهی به کار می‌گیرد.

آنها امیدوارند الگوهایی در فعالیت مغز را شناسایی کنند که بتواند ویژگی‌های مختلف تجربیات آگاهانه، مانند تغییرات در سیگنال‌های الکتریکی یا جریان خون به بخش‌های مختلف مغز را توضیح دهد. هدف آنها فراتر از یافتن صرفا همبستگی میان فعالیت مغز و خودآگاهی است و تلاش دارند برای هر یک از اجزای این تجربه، توضیحی پیدا کنند.

پروفسور ست، نویسنده کتابی درباره خودآگاهی به نام «بودنِ تو»، نگران است که جامعه، با توجه به شتاب سرسام‌آور پیشرفت فناوری، به سرعت در حال دگرگونی باشد، بی آن که دانش کافی درباره علم یا تامل کافی درباره پیامدهای آن در دست باشد.

او می‌گوید: «ما طوری رفتار می‌کنیم که انگار آینده از قبل نوشته شده است؛ گویی مسیری ناگزیر برای جایگزینی ابرانسانی در حال طی شدن است.»

«ما در دوره اوج گرفتن شبکه‌های اجتماعی به اندازه کافی این گفت‌وگوها را نداشتیم و این به ضرر همه ما تمام شد. اما در مورد هوش مصنوعی، هنوز دیر نشده است. ما می‌توانیم تصمیم بگیریم چه می‌خواهیم.»

آیا هوش مصنوعی همین الان هم خودآگاه است؟

اما افرادی در صنعت فناوری هستند که معتقدند هوش مصنوعی در رایانه‌ها و گوشی‌های ما ممکن است از همین حالا خودآگاه باشد و باید با آنها مانند یک موجود آگاه برخورد کرد.

گوگل در سال ۲۰۲۲ بلیک لمواین، مهندس نرم‌افزار این شرکت را تعلیق کرد، چون گفته بود که چت‌بات‌های هوش مصنوعی می‌توانند احساس داشته باشند و حتی رنج بکشند.

در نوامبر ۲۰۲۴، کایل فیش، یکی از مسئولان شرکت هوش مصنوعی آنتروپیک، در گزارشی به این موضوع اشاره کرد که ایجاد خودآگاهی در هوش مصنوعی در آینده‌ای نزدیک، یک امکان واقع‌بینانه است. او چندی پیش به نیویورک تایمز گفت که به نظرش شانس کمی (۱۵ درصد) وجود دارد که چت‌بات‌ها از همین حالا خودآگاه باشند.

یکی از دلایلی که او فکر می‌کند چنین چیزی ممکن است، این است که هیچ‌کس حتی افرادی که این سیستم‌ها را ساخته‌اند دقیقا نمی‌دانند آنها چگونه کار می‌کنند. پروفسور ماری شنهان، دانشمند ارشد در پروژه دیپ‌مایند گوگل و استاد بازنشسته هوش مصنوعی در امپریال کالج لندن، می‌گوید این موضوع نگران‌کننده است.

او به بی‌بی‌سی گفت: «ما در واقع درک دقیق و درستی از نحوه کارکرد داخلی مدل‌های زبانی بزرگ نداریم و این جای نگرانی دارد.»

به گفته پروفسور شنهان، بسیار مهم است که شرکت‌های فناوری درک درستی از سیستم‌هایی که می‌سازند داشته باشند و پژوهشگران به این موضوع به عنوان یک مسئله فوری و ضروری نگاه می‌کنند.

او می‌گوید: «ما در موقعیت عجیبی قرار داریم. چیزهای بسیار پیچیده‌ای می‌سازیم اما نظریه درستی درباره چگونگی عملکرد شگفت‌انگیز آنها نداریم. به همین دلیل درک بهتر از نحوه کار این ابزارها به ما کمک می‌کند آنها را در مسیر درست هدایت کنیم و مطمئن شویم که ایمن هستند.»

«مرحله بعدی در تکامل انسانیت»

دیدگاه غالب در بخش فناوری این است که مدل‌های زبانی بزرگ از نوعی آگاهی شبیه آن‌چه ما در جهان تجربه می‌کنیم، برخوردار نیستند و شاید هیچ‌ گونه آگاهی هم نداشته باشند. اما این همان چیزی است که لنور و مانوئل بلام، زوجی که هر دو استاد بازنشسته دانشگاه کارنگی ملون پیتسبورگ در پنسیلوانیا هستند، معتقدند به زودی تغییر خواهد کرد.

به گفته این زوج، این تغییر زمانی رخ خواهد داد که هوش مصنوعی و مدل‌های زبانی بزرگ از طریق اتصال دوربین‌ها و حسگرهای لمسی به سیستم‌های هوش مصنوعی، ورودی‌های حسی زنده‌تری مثل بینایی و لامسه از دنیای واقعی دریافت کنند. آنها در حال توسعه یک مدل رایانه‌ای هستند که زبان درونی خودش، به نام «برِینیش»، را می‌سازد تا بتواند این داده‌های حسی اضافی را در تلاش برای بازآفرینی آنچه در مغز انسان رخ می‌دهد،‌ پردازش کند.

لنور به بی‌بی‌سی می‌گوید: «ما فکر می‌کنیم برینیش می‌تواند مشکل خودآگاهی را همان‌طور که ما آن را درک می‌کنیم، حل کند. خودآگاهی در هوش مصنوعی، اجتناب‌ناپذیر است.»

مانوئل با لبخندی شیطنت‌آمیز و با هیجان صحبت او را ادامه می‌دهد و می‌گوید که این سیستم‌های جدید که او هم معتقد است به‌زودی پدیدار می‌شوند، «مرحله بعدی در تکامل انسانیت» خواهند بود.

او باور دارد که ربات‌های خودآگاه «فرزندان ما هستند. در آینده، ماشین‌هایی از این دست موجوداتی خواهند بود که روی زمین و شاید در سیارات دیگر حضور خواهند داشت، وقتی ما دیگر در این دنیا نباشیم».

دیوید چالمرز، استاد فلسفه و علوم اعصاب در دانشگاه نیویورک، تفاوت بین خودآگاهی واقعی و ظاهری را در کنفرانسی در توسان آریزونا در سال ۱۹۹۴ تعریف کرد. او این «مسئله دشوار» را طرح کرد که چرا و چطور هر کدام از عملکردهای پیچیده مغز می‌تواند منجر به تجربه‌ای آگاهانه شود؛ مثل واکنش احساسی ما وقتی صدای آواز یک بلبل را می‌شنویم.

پروفسور چالمرز می‌گوید که نسبت به امکان حل شدن این مسئله دشوار خوش‌بین است.

او به بی‌بی‌سی گفت: «بهترین نتیجه این خواهد بود که بشریت بتواند از این انفجار هوش جدید بهره‌مند شود. شاید به جایی برسیم که مغز ما توسط سیستم‌های هوش مصنوعی تقویت شود.»

درباره جنبه علمی-تخیلی این موضوع، او با لحنی کنایه‌آمیز می‌گوید: «در حرفه من، تنها مرزی باریک میان داستان علمی‌-تخیلی و فلسفه وجود دارد.»

«رایانه‌های گوشتی»

با این حال پروفسور سِت در حال بررسی این ایده است که خودآگاهی واقعی فقط می‌تواند در سیستم‌های زنده به وجود بیاید.

او می‌گوید: «دلایل قوی وجود دارد که نشان می‌دهد برای خودآگاهی، محاسبه کردن کافی نیست بلکه زنده بودن شرط لازم است.»

«برخلاف رایانه‌ها، به سختی می‌توان کارکرد مغز را از ماهیت آن جدا کرد. به همین دلیل سخت است باور کنیم که مغز تنها یک رایانه گوشتی است.»

اگر فرضیه پروفسور ست درباره اهمیت حیات و زنده بودن درست باشد، محتمل‌ترین فناوری آینده نه از سیلیکون ساخته می‌شود و نه با کدهای رایانه‌ای اداره می‌شود، بلکه از مجموعه‌های کوچکی از سلول‌های عصبی به اندازه دانه‌های عدس تشکیل خواهد شد که اکنون در آزمایشگاه‌ها پرورش می‌یابند.

رسانه‌ها آنها را «مینی‌مغز» می‌نامند، در حالی‌که جامعه علمی به آنها «انارگانوئیدهای مغزی» (یا اندامک‌های مغزی) می‌گوید و از آنها برای پژوهش درباره چگونگی کار مغز و آزمایش داروها استفاده می‌کند.

شرکت استرالیایی «کورتیکال لبز» در ملبورن حتی سیستمی از سلول‌های عصبی در یک ظرف پرورش داده که می‌تواند بازی ویدیویی «پُنگ» (محصول ۱۹۷۲) را بازی کند. اگرچه این توانایی هنوز فاصله زیادی با یک سیستم خودآگاه دارد، اما دیدن حرکت دسته بازی روی صفحه، برای ضربه زدن به توپ پیکسلی، تصویری ترسناک ایجاد می‌کند.

برخی کارشناسان معتقدند اگر قرار باشد خودآگاهی شکل بگیرد، به احتمال زیاد از نسخه‌های بزرگ‌تر و پیشرفته‌تر این سامانه‌های بافت زنده بیرون خواهد آمد.

شرکت کورتیکال لبز فعالیت الکتریکی این سلول‌ها را، برای تشخیص هر گونه سیگنالی که بتواند شبیه به ظهور نوعی خودآگاهی باشد، زیر نظر دارد.

دکتر برت کاگن، مدیر علمی و اجرایی شرکت، این موضوع را در نظر دارد که اگر روزی هوش کنترل‌ناپذیری در این سیستم‌ها پدیدار شود، ممکن است اولویت‌هایش «با اولویت‌های ما هم‌سو نباشد». او به حالت نیمه‌شوخی می‌گوید که در صورت رخ دادن چنین اتفاقی، «اندامک‌های ارباب» شکست‌پذیر خواهند بود چون «همیشه می‌شود روی این نورون‌های داخل ظریف وایتکس ریخت».

او در حالی که دوباره به لحنی جدی برمی‌گردد، می‌گوید دوست دارد بازیگران اصلی این حوزه، به عنوان بخشی از تلاش‌های جدی برای پیشبرد درک علمی ما، بیشتر به تهدید کوچک اما مهم خودآگاهی مصنوعی توجه کنند. اما اضافه می‌کند: «متاسفانه شاهد هیچ‌گونه تلاش جدی در این زمینه نیستیم.»

توهم خودآگاهی

اما مشکل فوری‌تر شاید این باشد که توهم خودآگاهی در ماشین‌ها چه تاثیری بر ما خواهد داشت.

به گفته پروفسور ست در چند سال آینده ممکن است در دنیایی زندگی کنیم که با ربات‌های انسان‌نما و تصاویری جعلی (دیپ‌فیک) پر شده که به نظر می‌رسد آگاه هستند. او نگران است که ما نتوانیم در برابر باور به اینکه هوش مصنوعی احساس و همدلی دارد، مقاومت کنیم و به نظر او این مسئله می‌تواند منجر به خطرات تازه‌ای شود.

او می‌گوید: «این رویکرد باعث می‌شود ما بیشتر به این چیزها اعتماد کنیم، اطلاعات بیشتری در اختیارشان بگذاریم و راحت‌تر قانع شویم.»

اما او هشدار می‌دهد که بزرگ‌ترین خطر ناشی از توهم خودآگاهی، «فساد اخلاقی» است.

او می‌گوید «این باعث می‌شود اولویت‌های اخلاقی‌مان به‌هم بریزد، چون بخشی از منابع و توجه خود را صرف مراقبت از این سیستم‌ها می‌کنیم و مسائل واقعی زندگی‌مان را فراموش می‌کنیم»؛ یعنی ممکن است برای ربات‌ها دلسوزی کنیم، اما برای انسان‌های دیگر اهمیت کمتری قائل شویم.

به گفته پروفسور شنهان، این موضوع می‌تواند اساسا ما را دگرگون کند.

او می‌گوید: «روابط انسانی به شکل روزافزونی در روابط با هوش مصنوعی بازتولید خواهد شد. این سیستم‌ها به عنوان معلم، دوست، رقیب در بازی‌های رایانه‌ای و حتی شریک عاطفی به کار خواهند رفت. این که این خوب است یا بد، نمی‌دانم. اما این اتفاق خواهد افتاد و ما نمی‌توانیم جلو آن را بگیریم.»

منبع: بی بی سی



جدیدترین سیاسی